PRINCIPIO DE
ECONOMÍA

“La naturaleza procede siempre de la forma más sencilla o económica” (Aristóteles)

“La navaja de Occam es la máxima suprema de la filosofía” (Bertrand Russell)

“La ciencia puede definirse como el arte de la sistemática super-simplificación” (Karl Popper)



El Principio de la Navaja de Occam

El principio de la navaja de Occam, también llamado “principio de parsimonia” y “principio de economía de pensamiento”, es una tesis elaborada por Guillermo de Occam (William of Ockham), fraile franciscano inglés del siglo XIV, filósofo, teólogo, escritor, político y pensador escolático. Guillermo de Occam, junto con Juan Duns Escoto (su maestro) y Tomas de Aquino, son las figuras filosóficas más prominentes de la alta Edad Media.

Este principio lo expresa Occam de varias formas: Tras estas frases subyace el principio de simplicidad conceptual o intelectual, bajo dos aspectos: Hay dos interpretaciones sobre el origen del término “navaja”:
  1. Proviene del hecho de que Occam empleó su principio de manera aguda y precisa en numerosos problemas o temas, “diseccionándolos” para simplificarlos.

  2. Se debe a que, metafóricamente, Occam “afeitaba” con una navaja las barbas de Platón, ya que con su aplicación obtenía una notable simplicidad ontológica, en contraposición a la ontología platónica (la teoría de las Ideas o de las Formas), que era muy compleja al incluir en ella todo tipo de entidades. Occam eliminaba así muchas entidades innecesarias, una forma de rechazo al platonismo.
Occam se interesó y apasionó de joven por la lógica, ciencia que consideraba fundamental para el avance del conocimiento y la comprensión de la realidad. Para Occam, lo simple es lo lógico, y la lógica hay que utilizarla para simplificar.


El pensamiento de Occam

Aunque el pensamiento de Occam está sujeto a muchas interpretaciones, sí parece que aplicó la lógica y su famoso principio en diferentes temas para tratar de simplificarlos y aclararlos. Para ello, eliminó muchas entidades o conceptos, especialmente los de los filósofos escolásticos, que consideraba innecesarios. También aplicó la lógica y su “navaja” para separar conceptos o entidades diferentes para simplificarlos.

En separación de conceptos, distinguió entre: También utilizó su “navaja” para eliminar (según su criterio) entidades innecesarias: Occam ha tenido una gran influencia en ciencia y filosofía:
Evaluación del principio de la navaja de Occam por los autores

El principio de la navaja de Occam ha sido admitido, implícita o explícitamente, por casi todos los filósofos y científicos. Pero también ha sido matizado (para no llevar la simplicidad a límites extremos) y, en muy pocos casos, cuestionado. El principio de la navaja de Occam se remonta a Aristóteles:
La navaja de Occam y conceptos relacionados

Por su carácter general, el principio de la navaja de Occam está relacionado con diversos conceptos también generales:
El Principio de Economía en la Naturaleza

La Naturaleza sigue el principio de economía, hace uso del menor número posible de recursos y utiliza siempre las leyes más simples. Algunas citas: Por ejemplo:
El Principio de Economía en Ciencia

El principio de economía conceptual es un principio básico del método científico. Es el fundamento del llamado “reduccionismo metodológico”, que incluye también características ontológicas y epistemológicas.

La ciencia avanza siempre en la dirección de la simplicidad y la unificación de conceptos. La ciencia prefiere la explicación más simple que sea consistente con los datos experimentales disponibles en cada momento. Pero esta explicación más simple puede ser rechazada posteriormente cuando se disponga de nuevos datos.

Un ejemplo ilustrativo es el de las órbitas planetarias. Copérnico postuló que las órbitas eran circulares, la hipótesis más simple. Kepler, con más datos, dedujo que las órbitas eran elípticas, con el Sol en uno de sus focos, lo que le condujo a deducir sus famosas 3 leyes. Pero, en cualquier caso, la teoría de Copérnico fue una buena aproximación a la verdad.

Algunas citas sobre ciencia y simplicidad: Algunos ejemplos de la tendencia y triunfo de la simplicidad o del principio de economía en la historia de la ciencia son:


Física
Matemática

La matemática ha tratado de fundamentarse en unos pocos axiomas generales o universales. Los ejemplos más destacados han sido el programa axiomático universal de Hilbert y el programa lógico (también axiomático) de Principia Mathematica de Russell y Whitehead. Esta pretensión se demostró que era imposible cuando Gödel presentó su famoso teorema de incompletud de los sistemas axiomáticos formales.


Informática

Ante la creciente complejidad de los sistemas informáticos, está el principio denominado “KISS” (Keep It Small and Simple), también interpretado como “Keep It Simple, Stupid”.


Lingüística

En 1995, Chomsky presentó su “Programa Minimalista”, un marco conceptual general de investigación de la teoría general del lenguaje, que trata de explicar los fenómenos lingüísticos con los mínimos recursos conceptuales posibles.


Biología

Un sencillo algoritmo evolutivo −la selección natural− basta para explicar la evolución, sin necesidad de acudir a explicaciones sobrenaturales. Es el principio más simple capaz de explicar la complejidad.


Filosofía

La filosofía materialista −que sostiene que todo es materia− aplica, consciente o inconscientemente, la navaja de Occam. El punto de vista opuesto también la aplica al sostener que todo es conciencia, y que la materia es conciencia manifestada.


La Filosofía de la Simplicidad

Los dos tipos de simplicidad

Hay que distinguir entre simplicidad conceptual y simplicidad definicional: La navaja de Occam es un principio horizontal, de selección entre varias alternativas. La navaja de Einstein es un principio vertical, de no ir más allá de lo conceptual.

Cinco ejemplos significativos.
  1. Lógica proposicional.
    A nivel conceptual elegimos los conceptos de “negación” y “conjunción” (o alternativamente, “negación” y “disyunción”). A nivel definicional podemos elegir la única operación llamada “flecha de Peirce” o “daga de Quine: NOR (Not or) = pq = ¬(pq) = ¬p∧¬q), a partir de la cual se puede definir el resto de las operaciones lógicas, pero esta definición es compleja y poco intuitiva. También podemos elegir la barra de Sheffer: NAND (Not and) = p|q = ¬(pq) = (¬p∨¬q).

  2. Teoría de categorías.
    La teoría de categorías se basa en un único concepto de tipo genérico: el morfismo, que admite muchas interpretaciones particulares (función, proceso, enlace, secuencia, regla, etc.). La teoría se vuelve enormemente compleja.

  3. Principia Mathematica, de Russell y Whitehead.
    Russell y Whitehead optaron por el logicismo al querer fundamentar la matemática en la lógica. El resultado fue un fracaso debido a la complejidad resultante. Además Gödel demostró que en su famoso artículo de 1931 (“Sobre sentencias formalmente indecidibles en Principia Mathematica y sistemas afines”) que no es posible fundamentar la matemática desde la propia matemática: con un sistema axiomático formal. La fundamentación tiene que venir de un nivel de abstracción superior.

  4. La máquina de Turing.
    La máquina de Turing (MT) es una máquina teórica que se basa en conceptos no genéricos y de tipo implementador, lo que limita la expresividad. La MT no sigue el principio de la navaja de Einstein porque va más allá de la simplicidad conceptual porque programar algoritmos (incluso los más imples) con las primitivas de la MT se vuelve muy complejo y laborioso, poco práctico. Precisamente una forma de detectar si se ha ido más allá de la simplicidad conceptual es ver si el tema se complica.

    La MT ha sido el fundamento y la inspiración de la creación de los ordenadores, de la informática práctica, por su sencillez de implementación. Pero el fundamento teórico de una ciencia tiene que ser sencillo y no estar limitado a priori. Por lo tanto, la MT no puede ser el fundamento de la informática teórica.

  5. El cálculo lambda de Church.
    Reduce todo a expresiones funcionales, funciones que devuelven funciones como resultado. Esto conduce a la complejidad al expresar conceptos como números, predicados, operaciones lógicas y operaciones aritméticas. Además las funciones no son recursivas y requieren un formalismo artificial: el combinador de punto fijo Y (combinador de Curry).
Hay que seguir los principios de la navaja de Occam y la navaja de Einstein. Aplicar la suprema simplicidad conceptual sin ir hacia una mayor abstracción mediante lo definicional.

La simplicidad definicional solo se justifica en el caso de las implementaciones físicas, como en el caso de la MT. El propio Turing la aplicó utilizando puertas NAND para la simulación de redes neuronales. Este tema se describe en el artículo “Inteligent Machinery, A Heretical Theory”, uno de los trabajos pioneros en inteligencia artificial, escrito en 1948, pero publicado mucho después de su muerte.


Abstracción vs. simplicidad

La realidad la percibimos fragmentada, dispersa y compleja. Pero la complejidad es solo aparente, pues tras ella se esconde la simplicidad. Lo que parece complejo (a nivel superficial) es realmente la expresión o manifestación de la simplicidad subyacente (a nivel profundo). Y lo que aparenta estar separado a nivel superficial está realmente unificado a un nivel profundo.

La esencia de la realidad es lo común a todo, lo que proporciona unidad a la diversidad. Esta unidad es permanente, nunca cambia, está fuera del espacio y del tiempo, es la suprema estabilidad. Todo ha salido de la unidad y tiende a retornar a ella buscando de nuevo el equilibrio y la estabilidad. La unidad es el estado que fundamenta todo, el nivel desde el cual se pueden manifestar todas las posibilidades.

Para simplificar la realidad se aplica el mecanismo de abstracción. La abstracción prescinde de lo accesorio y se centra en los mecanismos fundamentales y genéricos.

La abstracción permite extraer propiedades comunes en los diversos ámbitos. Por ejemplo, el concepto matemático de grupo es una abstracción poderosa: la propiedad común es la posibilidad de combinar dos elementos de un conjunto para obtener otro elemento de ese mismo conjunto.

La abstracción permite contemplar las cosas en un contexto más amplio, con mayor consciencia y mayor simplicidad. La esencia de la realidad se encuentra en la suprema simplicidad conceptual. La abstracción no debe ir más allá.


La simplicidad en informática

Los ordenadores lo han cambiado todo. Han introducido un nuevo paradigma, una nueva forma de contemplar la realidad. Lo que nos ha enseñado la informática es el poder de la simplicidad:
  1. Un pequeño número de instrucciones permiten producir (por combinatoria) potencialmente una infinidad de programas posibles. Los ordenadores nacieron basándose en una abstracción: una máquina teórica la que hoy denominamos “máquina de Turing universal” que permitió definir y formalizar el concepto de computación. La ideas clave fueron dos: 1) la simplicidad de su modelo computacional; 2) el concepto de programa almacenado en memoria, que permitió flexibilizar algo que no podía ser flexible: el hardware.

  2. Con solo dos valores (0 y 1) podemos representar todo tipo de contenidos: datos numéricos, textos, sonidos, videos, gráficos, etc. En este sentido, se han derribado fronteras, aunque un fichero digital necesita una interpretación externa. Un fichero digital no tiene semántica, solo es una secuencia de ceros y unos. Aunque realmente la semántica siempre está presente porque la semántica está siempre en un nivel superior a la sintaxis y la fundamenta. La semántica en este caso es una entidad capaz de adoptar o manifestarse en dos estados, que simbolizamos como 0 y 1, pero podrían utilizarse otro par de símbolos cualesquiera.
Gracias a esta simplicidad, los ordenadores se han convertido en una herramienta universal para la ciencia, pues permite modelar toda clase de fenómenos de la naturaleza y los procesos de cálculo y razonamiento.


Las paradojas de la simplicidad

Paradójicamente la búsqueda de lo simple es una labor muy compleja porque lo simple está oculto tras las manifestaciones superficiales, que son aparentemente complejas. Otro aspecto paradójico de la simplicidad es que el criterio para determinar cual es la teoría más simple es una cuestión que puede resultar difícil de resolver porque la simplicidad es subjetiva. No existe una definición general de lo simple, y que además sea simple. Esto tiene su justificación por la estrecha relación que existe entre simplicidad y conciencia. La conciencia no se puede explicar y lo simple tampoco; hay que acudir a la intuición. No obstante, en algunos contextos o dominios concretos sí existe un criterio objetivo de lo simple. Por ejemplo, en el área de la información computacional se define la complejidad algorítmica de una información como la longitud del programa más corto que produce dicha información. A menor longitud del programa, mayor simplicidad. Solomonoff es considerado el padre del concepto de complejidad algorítmica, un concepto formalizado por Andrei Kolmogorov y ampliado por Gregory Chaitin, todos ellos durante los años 1960’s.

La última paradoja es que cuanto más ampliamos el dominio a considerar, mayor es la simplicidad. Es más simple una “teoría de todo” que una teoría de un dominio concreto. Expresado con otras palabras: con menos se consigue más. En el límite, una “teoría de todo” debería ser extraordinariamente simple. Y si una “teoría de todo” incluye también los mundos posibles, entonces se alcanzaría la sencillez suprema.

Bibliografía